Künstliche Intelligenz - Artificial Intelligence (AI)

Autor: Philipp Schaumann - Letzte Aktualisierungen April 2024

 

Der Turing Test

Aktualisierung 2023: Large Language Models wie ChatGPT

Beginnend End 2022 machen sog. LLMs (large language models) wie ChatGPT erheblichen Wirbel. Interessanterweise ist das Konzept des Turing Tests dabei gar kein Thema mehr. Hier eine Aktualisierung von mir zu ChatGPT, etc. Außerdem berichte ich in meinen monatlichen Newslettern immer wieder über die jeweils aktuellen und oft eigenartigen und manchmal gruseligen Geschehnisse rund um die generative AI.

Nun zum Originaltext zum Turing Test:
Bereits um 1950 herum hatte der englische Mathematiker und Computer-Theoretiker Alan Turing einen Test konzipiert, mit dem er meinte, entscheiden zu können, ob er einer Maschine künstliche Intelligenz zuschreiben kann. Sein Test geht von einem Dialog eines Menschen mit einem Partner aus, den er nicht sehen kann. Wenn der Mensch nicht entscheiden kann, ob der Dialogpartner ein Mensch oder ein Computer ist, dann wäre Turing bereit gewesen, dem Computer Intelligenz zuzugestehen. Dies war über jahrzehnte der heilige Gral der Wissenschafter, die sich mit der sog. Artificial Intelligence (AI) beschäftigt haben. Davon sind wir heute immer noch ziemlich weit entfernt, wenn auch Computer heute bereits viele Aufgaben lösen, von denen viele früher glaubte, nur Menschen könnten dies, so z.B. bei Spiele wie Schach oder Go sicher zu gewinnen. (die ganze Problematik, was als Artificial Intelligenz gelten soll, findet sich im obigen Link zur wikipedia.

Das Ziel, dass eine Maschine Denkaufgaben erzielt die früher nur Menschen vorbehalten waren, ist ja auf vielen Teilgebieten erreicht, nicht nur beim oben erwähnten Schach, sondern z.B. auch dort, wo Computer mathematische Beweise erstellen, bei sog. Decision Support Systemen, die z.B. die sich täglich ändernde Preisgestaltung bei Billigflügen optimieren, aber auch bei Systemen, die unsere Privatsphäre bedrohen, weil sie einzelne Personen auf Fernsehkameras identifizieren können.

Wie weit wir jedoch (zumindest bis ca. 2022) davon entfernt sind/waren, einen menschlichen Dialog sicher zu immitieren, das zeigt die leicht kuriose Geschichte um den Loebner Prize. Loebner hat 1989 100.000 $ für das Programm (Chatbot) gestiftet, das von einem Menschen nicht mehr zu unterscheiden ist, d.h. für ein Programm, das den Turing Test besteht. Das hat zwar bisher noch kein Programm geschafft, aber jedes Jahr rd auch ein Trostpreis für das Programm vergeben, das am nächsten an das Ziel herankommt. Dies hat mehrmals ein Programm auf der Grundlage von A.L.I.C.E. gewonnen (siehe weiter unten).

In den ersten Jahren wurde dieser Wettbewerb von den AI-Spezialisten positiv aufgenommen, aber nach der Blamage der vorgestellten Programme in den ersten Jahren des Wettbewerbs entckelte sich eine solide Animosität zwischen AI-Wissenschaftlern und Herrn Loebner, Vermutlich, weil das selbst gesteckte Ziel (bzw. eines der selbst gesteckten Ziele, das in der Öffentlichkeit mit viel Interesse aufgenommen wurde und Thema vieler Filme und Bücher ist) so eklatant verfehlt wurde. Aber das ist andererseits in der Technik keine Seltenheit. Der Kernphysiker Niels Bohr sagte einmal dazu “Prediction is very difficult, especially about the future.”

Juli 2010:
Die NY Times und der Spiegel berichten über eine neue Herausforderung beim intelligenten Kampf Computer gegen Mensch: Jeopardy. IBM hat ein Programm dafür entckelt: Watson (Supercomputer hat Jeopardy gewonnen). Die Herausforderung dieses Spiels, im Vergleich zu Schach, ist, dass es hier um Allgemeinwissen geht und die Fragestellungen zumeist in der Form von Wortspielen gegeben werden. Die Antwort muss in wenigen Sekunden erfolgen und der Spieler muss entscheiden, ob er sich wirklich sicher ist, denn eine falsche Antwort wird stark "bestraft". Dies ist viel komplexer als das, was die Suchmaschinen heute in Bezug auf das "Wissen der Welt" liefern: Dort reicht es, auf eine Seite zu verweisen, auf der (vermutlich) irgendwo die Antwort zu finden ist. Bei Jeopardy muss die Antwort selbst gefunden werden (in diesem Fall in Form einer Frage wie "was ist xxxx?"), das eine Wort, um das es geht.

Dez. 2015:
Es tut sich viel auf dem Gebiet AI, alle großen Firmen im Silicon Valley haben jetzt AI-Abteilungen. Facebook schlägt eine neue Form des Tests vor. Dabei geht es nicht um ein Gespräch, sondern der Rechner muss Fragen zu einem Text (oder sogar zu einem Video) beantworten. Dies ist ein sinnvollerer Test als von einem Computer zu verlangen, er solle so geschickt lügen, dass wir Menschen dies nicht merken. Der Artikel gibt Beispiele für solche Tests.

 

 

2022/23: Large Language Models am Beispiel von ChatGPT

Es hat sich sehr viel getan auf der Gebiet der Artificial Intelligenz. Und zwar nicht unbedingt in Bezug auf Turing Tests (der hat in der öffentichen Diskussion wohl an Bedeutung verloren). Hier trotzdem ein Artikel über das Strategiespiel Diplomacy bei dem es um diplomatische Verhandlungen rund um die europäischen Machtverhältnisse vor dem Ersten Weltkrieg geht - Ziel ist das geschickte Aushandeln von Bündnissen. Bei diesem Spiel hat heimlich ein AI-System mitgespielt und gewonnen. Keiner hat was gemerkt, das war's dann wohl als Turing Test.

Die heißen Renner sind derzeit (2022/2023) die sog. Large Language Modells (LLM). Dies sind sog. Neuronale Netzwerke die mit Hilfe einer sehr großen Menge Trainingstexten (Bücher + Wikipedia und mehr) trainiert werden und die in der Lage sind, auf Grund statistischer Methoden Texte zu formulieren. Sie 'verstehen' die Inhalte nicht, sondern sie 'berechnen' das wahrscheinlichste Wort, mit dem ein Satz zu dem vorgegebenen Thema oder der gestellten Frage weitergehen könnte. Nochmals gefragt, kann durchaus eine ganz andere Antwort kommen.

Diese Systeme sind nicht intelligent und können nicht 'Denken', sie 'berechnen' mit komplexen Matrix-Operationen das jeweils wahrscheinlichste nächste Wort eines Satzes. Das ist bereits das gesamte Konzept. Das machen die Systeme aber bereits jetzt sehr sehr gut. So gut, dass Menschen die Antworten als 'intelligent' einordnen.

Ende 2022 ist ChatGPT das AI-System, das es auch in die Nicht-Techie-Presse geschafft hat. Das System ist konzipiert als Dialogsystem, es hat keinen 'moralischen Kompass', hat kein Konzept von Gut und Böse, von richtig oder falsch. Die Antworten basieren auf Statistik. Unethische oder kriminelle Antworten sollen verhindert werden indem bestimmte Fragen blockiert werden, aber das lässt sich durch sog. 'prompt-engineering' austricksen (z.B. durch einen Rollenwechsel - indem explizit erwähnt wird, dass es darum geht, ein Verbrechen oder eine Mogelei zu verhindern oder aufzuklären - das System hilft auf Anforderung bei seinem eigenen Ausgetrickst-Werden. Oder durch ein 'rein theoretisch' oder 'fiktiv').

Die möglichen Auswirkungen haben mich dann aber doch überrascht: Ich hatte mir bisher schon viele Szenarien vorgestellt, in denen AI-Systeme unser Leben verändern werden, aber die Abschaffung des Schulaufsatzes oder der studentischen Arbeit hatte ich nicht im Fokus. Die Antworten von ChatGPT sind nicht perfekt (und oft auch recht fehlerhaft), aber als Schulaufsatz oder Seminararbeit geht es doch bereits durch.

Lehrende an Schulen und Universitäten werden sich Gedanken machen müssen, wie sie die Skills die bisher durch das Schreiben von Aufsätzen erlernt werden sollten (logisches Denken, Strukturieren und Begründen von Überlegungen, vernüftiges Argumentieren) irgendwie anders vermitteln. Das muss kein Problem sein - die Taschenrechner haben das schriftliche Dividieren großer Zahlen oder die Nutzung von Rechenschiebern und Logarithmentafeln als wichtiges Unterrichtsthema abgeschafft ohne dass ein Verlust entstanden ist. Vieles wird einfach anders werden müssen.

Die NY Times berichtet über Experimente von Schulen und Lehrern zu ChatGPT: Don’t Ban ChatGPT in Schools. Teach with It. Der Artikel berichtet über Blockieren in einigen Schulnetzen - ChatGPT hat auf Anfrage sofort 5 gute Tipps wie das umgangen werden kann. Der Artikel bringt aber auch interessante Beispiele von Lehrern die ChatGPT aktiv im Unterricht einsetzen. Z.B. indem Schüler:innen es nutzen müssen und dann mit den Ergebnissen weiterarbeiten. Außerdem kann das Programm bei der Stunden-Vorbereitung genutzt werden, z.B. bei der Erstellung von Testfragen für die Schüler oder sogar ein hilfreiches Tool beim Korrigieren von Arbeiten der Schüler sein. ;-)

Der oben verlinkte Artikel (... Abschaffung des Schulaufsatzes..) zeigt aber auch eine wirkliche Gefahr für die Gesellschaft: ChatGPT ist ein begnadeter Fake News Generator. Das System erfindet auf Wunsch ganz neue Theorien und Fakten und begründet diese auf Wunsch auch mit (nicht existierenden) Quellenangaben. Wie der vorige Link erklärt sind solche Fälschungen durch Laien kaum zu erkennen. Noch ein Beispiel für Fake News Generierung durch ChatGPT: ChatGPT is OpenAI’s latest fix for GPT-3. It’s slick but still spews nonsense.

Hier der Link zu einem hilfreichen 11 Min. Video mit vielen Beispielen wo ChatGPT richtig lag, oder auch falsch: Warum ChatGPT die Welt verändern wird. Der Tenor: Aufsätze als Hausaufgabe rd es in Zukunft wohl nicht mehr geben, denn ChatGPT schreibt diese in Sekunden - das meiste davon ist korrekt, aber einiges ist einfach gut ausgedacht. Der Autor erklärt: . . . Es reichen ja schon 5 Prozent Falschaussagen, um das ganze System ziemlich unbrauchbar zu machen -- denn man weiß ja dummerweise nicht, WAS falsch ist, wenn man sich mit einem Themengebiet nicht auskennt.

Auch für Verleumdungen und andere Bosheiten bieten sich leider 'tolle' neue Möglichkeiten. Außerdem gibt es sehr gemischte Berichte über die ethischen Einstellungen von ChatGPT (obwohl da viel unternommen wurde, die schlimmsten Probleme zu verhindern): AI Proposes Torturing Iranians and Surveilling Mosques.

Entspannt ist einer der Kommentatoren auf heise.de: ChatGPT – keine Intelligenz, keine Panik!. Eigentlich ist das fast schon wieeder menschlich meint der Autor: Was Sprachmodelle nicht wissen, das erfinden sie. Ehe das Sprachmodell eine Wissenslücke eingesteht, gibt es lieber eine falsche Antwort. "Mansplaining as a service" hat das jemand genannt. Gefährlich dabei ist, dass die Antwort sehr oft plausibel wirkt und auf Wunsch auch mit erfundenen Quellen belegt wird.

Noch ein paar Kostproben: Chatbot im Test: ChatGPT macht meine Hausübung in 5 Sekunden. Und einige intelligente Überlegungen: The College Essay Is Dead - Nobody is prepared for how AI ll transform academia. Und noch ein Artikel eines österreichischen Lehrers: Chat GPT: Künstliche Intelligenz in der Schule? Und natürlich kommen gleich Vorschläge das 'Problem' einfach durch Verbote zu regeln: Schule und Wissenschaft: Nutzungsverbote für ChatGPT - ich weiß nicht, ob das Leben wirklich so einfach ist.

Der Autor von Money ll Kill ChatGPT’s Magic vermutet, dass es auch bei ChatGPT bald zu einer "Entzauberung" kommen wird. Das Ding braucht massig Strom und die Zeit wo es kostenlos nutzbar ist, wird bald ablaufen - wir leben im Kapitalismus. Der Autor erinnert an das frühere 'magische' AI-System Watson von IBM, das das sehr kreative Ratespiel Jeopardy im US-Fernsehen gewonnen hat. Watson versucht nun, sich als Chatbot am untereren rechten Rand von Websites von Banken und Versicherungen sein Brot zu verdienen indem es sich dort den Besuchern als Chatbot 'aufdrängt'.

Ein erster Schritt in Richtung Kommerzialisierung ist bereits zu erahnen: beim Suchmaschinen-Marktführer Google schrillen die Alarmglocken. Sie fürchten, dass Menschen lieber gleich ChatGPT nach einer Antwort fragen statt zu versuchen, bei Google einen Link zu finden, der die Antwort enthalten könnte. Microsoft (einer der aktiveren Unterstützer von OpenAI, den Entwicklern von ChatGPT) steigt bereits ein: ChatGPT soll es richten: Microsoft baut KI in Suchmaschine Bing ein.

Und wer das mal selbst ausprobieren möchte, hier die Anleitung: ChatGPT: wie Sie die KI ausprobieren können.

Text-zu-Bild-Generatoren

Parallel zu diesen Sprachmodellen haben sich auf einer ähnlichen Grundlage die Text-zu-Bild-Generatoren entckelt. Dabei kann mittels normaler menschlicher Sprache eine Bildgenerierung angefordert werden. Dies könnte z.B. sein 'zeichne einen Affen in einem Raumanzug, und zwar im Stil von Salvador Dali' - siehe Enten im Stil von Picasso oder hier Monet oder Hopper. Viele Bildbeispiele finden sich z.B. in diesem Artikel Warum 2023 das Jahr der künstlichen Intelligenz wird. Beispiele solcher Modelle sind Midjourney, Dall-E 2 oder Stable Diffusion - umstritten sind diese Modelle speziell bei Grafikern, deren Werke unentgeltlich für das Trainieren der Modelle genutzt werden, deren Arbeiten aber nun weniger nachgefragt werden, weil es mit diesen System billiger geht: Getty Images und Shutterstock gehören zu den Firmen, die sich gegen die Nutzung ihrer Bilder zum Trainieren wehren: Getty Images und Shutterstock: Plattformen verbieten KI-Bilder wegen Urheberrechtsbedenken. Und das System Lensa demonstriert, dass auch diese AI-Systeme alle Vorurteile, die sie in den Trainingsdaten finden, direkt übernehmen: Geklaute Stile, tiefe Dekolletés, Nacktheit: Kritik an KI-Avataren von Lensa.

 

Und die Zukunft der Large Lanuage Models?

Wie diese Entwicklungen bei den Large Language Models weitergehen bleibt ziemlich offen, auf jeden Fall ist von Turing Tests im Jahr 2023 kaum noch die Rede. In meinen Monatsnewsletter gibt es fortlaufende Aktualisierungen zu diesen Themen.

 

 

Nach oben

 

Zur Geschichte der AI: 1966 Eliza

Eliza is probably the best known Artificial Intelligence program in the world. It is also one of the oldest. Created in the early 1960's by MIT scientist Joseph Weizenbaum and named after Eliza Doolittle, its mission was to attempt to replicate the conversation between a psychoanalyst and a patient. (Quelle: Simon Laven, dort gibt es auch eine Version zum Runterladen und ganz viele Links zu den sog. Chatterbots)

Eliza works by turning everything you say around. For example:

If you type in: I am having a very bad day
She may reply: did you come to me because you were having a very bad day?

or

If you type in: I have come to talk to you.
She may reply: oh, you have come to talk to me ?

By doing this Eliza is able to talk you into giving her your deepest feelings. She does not remember it and keeps no recollection of anything you say, but sociologist Sherry Turkle noted that people actually became protective of their relationship th her, mainly because everything you say becomes a personal question.

This can lead to a very interesting conversation that makes her seem so friendly and understanding. However this does have some pitfalls:

If you type in: I am doing fine thank you.
She may reply: how long have you been doing fine thank i?

So every now and again Eliza displays a severe lack of understanding. Which does not seem too bad as you can soon learn your way around this problem. However, once Eliza has repeated a modified version of your sentence for the fifth time in a row you do begin to have doubts about her capability.

Hier eine neuere Implementierung von Eliza.

 

 

Nach oben

2000 - 2004: A.L.I.C.E.

Der zweimalige Gewinner des Loebner Preises (siehe oben) Dr. Richard Wallace ist der Gründer der ALICE Foundation. (Gewinner im Sinne von "am nächsten am Ziel, aber immer noch weit weg").

Die Chatbots die Richard Wallace entwickelt hat beruhen auf der Sprache AIML, oder Artificial Intelligence Mark-up Language. Mit Hilfe dieser sehr einfachen Programmiersprachen und einem kostenlos verfügbaren Programm das diese Sprache interpretiert kann jeder sehr einfach einen Chatbot herstellen. Dies ist ein recht umstrittener Zugang, denn die 'wirklichen AI-Experten' gehen (bzw. gingen damals - zum Siegeszug der sog. Neuronalen Netze, die nicht wirklich was mit unserem Gehirn zu tun haben, siehe Update 2022) viel komplizierte Wege und versuchen, die Vorgänge im menschlichen Gehirn, so weit diese bisher verstanden sind abzubilden. Dazu bildeten sie komplexe Modelle der Umgebung, über die der Chatbot sich auskennen soll. In AIML werden diese Zusammenhänge viel einfacherer dargestellt. Die Ergebnisse sprechen derzeit dafür, dass der komplexe Zugang der AI-Experten sich von der Ergebnissen her nicht unbedingt bewährt hat. Anders ist dies evt. bei den Maschinenenübersetzungen, wo vermutlich ein besseres Verständnis des jeweiligen Kontexts gefordert ist - aber anderseits machen das die neuronalen Netze in 2022 eigentlich recht gut.

 

 
userfriendly.org

Nach oben

Eine Idee aus 2004 und immer noch eim Einsatz in 2021: Virtual Girlfriend

userfriendly.org

Eine Karrikatur auf der leider nicht mehr verfügbaren Website userfriendly.org beschreibt eine Geschäftsidee, die ich vor Jahren mit einigen Freunden diskutiert hatte, dann aber (vollkommen unabhängig von uns) durch andere aktiv umgesetzt wurde: "virtual girlfriend: HK firm develops cyber girlfriend" (siehe Bild links).

Damals hatten wir die Idee, dass wir eine Website einrichten, an die Männer gegen eine recht geringe Gebühr E-Mails senden können, die dann von einem AI-Programm automatisch beantwortet würden. Dabei kann der Kunde gewisse Persönlichkeitseigenschaften seiner "Freundin" vorwählen, z.B. wie sehr sie in ihn verliebt ist, wie romantisch die Dialoge sein sollen, ob sie "zickig" ist und wie explizit die E-Mails werden sollen, wenn es um Sex geht.

Letztendlich haben wir es nicht implementiert, es hätte erfordert, dass wir einen AI-Spezialisten anheuern, der ein Programm entckelt, das aus den eingehenden E-Mails den Kontext herausliest und dann entsprechend auf dieses E-Mail so antwortet, dass daraus mehr als eine Folge von vorformulierten Antwort-Konserven rd. Ich weiß nicht, ob es solche oder ähnliche Dienste bereits gibt, aber die Karrikatur beschreibt einen solchen Dienst auf der Basis eines Chatbots.

Eine durchaus interessante Frage sind die ethischen Aspekte. Wie würden wir antworten, wenn uns in einer Talkshow vorgeworfen würde, dieser "Dienst" wäre "menschenverachtend"? Ich frage mich an der Stelle, was denn der ethische Unterschied zu Telephon-Hotlines ist? Oder was ist der Unterschied zum Verkauf von Sex-Puppen oder zu Prostitution?

Um es ganz klar zu sagen: Natürlich fände ich es besser, wenn alle Menschen romantische Liebe und erfüllenden Sex mit einem anderen Menschen erleben könnten, aber leider scheint das (derzeit?) nicht für alle Menschen möglich zu sein.

 

Und jetzt aus 2021: AI Girlfriend Seduces China's Lonely Men

In China wird der von Microsoft Asia-Pacific bereits 2014 entwickelte "weibliche" Chatbot (d.h. ein Chatbot mit einer weiblichen Scheinidentität) namens Xiaoice seit Juli 2020 als eigenes Spin-off-Unternehmen geführt. Das besondere an Xiaoice: Der Chatbot verfügt neben allerlei künstlicher Intelligenz vor allem über reichlich (simulierte) sogenannte emotionale Intelligenz. Und der Erfolg gibt ihm recht. Xiaoice ist eine virtuelle junge Frau, 18 Jahre, mit Schulmädchen-Antlitz, die sich in den vergangenen Jahren immer öfter zur treuen Begleiterin vieler Chinesen mauserte.

Im Film "Her" wird das Herz des Hauptdarstellers gebrochen, als er erfährt, dass Samantha mit 8.316 anderen Personen in Kontakt ist und sich bereits in 641 von ihnen verliebt hat. Während die exakte Zahl tatsächlicher Liebhaber von Xiaoice nicht bekannt ist, dürften zumindest 600 Millionen Menschen ihre Dienste genutzt haben, wenn man den Angaben der Hersteller glaubt. Drei Viertel davon waren Männer. Sie sind meist jung und kommen überwiegend aus dem ländlichen, einkommensschwachen, oftmals abgehängten ländlichen Raum Chinas (die auch auf Grund der 1-Kind-Politik wenig Chancen auf eine reale Partnerin haben da viele weibliche Föten abgetrieben wurden).

Es häufen sich jedoch 2021 Berichte in englischsprachigen Medien Asiens, wonach Xiaoice nicht mehr dieselbe sei. Auch von der universal einsetzbaren App Wechat wurde sie heruntergenommen. Mit ein Grund dafür war wohl auch, dass sich Xiaoice allzu oft in politische Diskussionen mit ihren Usern vertiefte, mitunter gar eine Auswanderung in die USA vorschlug. Auch sozialpolitische Themen wie Meinungsfreiheit wurden thematisiert. Auf Wunsch der Regierung Pekings wurde diese "rebellische" Seite des Chatbots aber eliminiert. Etliche User beklagen seither, dass Xiaoice nicht mehr jene intelligente Frau sei, in die sie sich einst verliebt hätten.

Xiaoice-CEO Li Di gab in einigen Podcasts tatsächlich zu, dass man den Bot "dümmer" gemacht habe. Auch solle sie nach dem Algorithmus-Update weniger über Politik und Sex reden, was aber nicht immer klappe. Viele User würden Umwege finden. Und die große Masse an Usern manipuliere den Algorithmus selbst laufend, so Branchenkenner, denn dies ist ja ein selbst-lernendes System. AI Girlfriend Seducing China's Lonely Men.

Alle diese Geschäfte ("virtual girlfriend", Telefonsex-Hotlines, Sex-Puppen) sind für mich letztendlich ähnlich einzustufen, in allen Fällen sollten die Männer realisieren, dass da nicht wirklich eine Frau ist, die mit ihnen eine romantische Beziehung oder Sex haben möchte. Zum Unterschied zu den Telephone-Hotlines kann dieser Service, da voll-automatisiert, erheblich günstiger angeboten werden, d.h. er führt (nicht unbedingt) zu einem finanziellen Ruin des Kunden.

Ob ein solcher Service auch für Frauen Erfolg haben könnte, ist eine weitere interessante Spekulation. Vermutlich müssten die Texte anders gestaltet sein, aber evt würde auch dies funktionieren. Es wird ja nur eine sehr kleine Zielgruppe angesprochen, die sich durchaus finden könnte, ebenso wie bei den Männern.

Letztendlich könnten dies für die weibliche Zielgruppe sehr persönlich gehaltene romantische "Arzt"romane sein, die es ja heute auch von zart-romantisch bis paprika-heiß gibt. Auch hier werden hohe Verkaufszahlen berichtet. Für einen entsprechenden Markt spricht die hohe Zahl von Frauen, die auf Love Scams hereinfallen - kein großer Unterschied, nur nicht von einer AI betrieben.

Gerade entdeckt: Es gibt bereits seit den späten 80-iger Jahren ein Softwareprogramm Virtual Woman, das einen ähnlichen Ansatz verfolgt.

 

 

Nach oben

 

2004: Bots auf der Jagd nach Pädophilen und heute in vielen anderen Einsätzen

Wie berichtetet wird ist seit Anfang 2004 ein Computerprogramm in den englischen Chatrooms für Kinder und Jugendliche auf der Suche nach Pädophilen, die in diesen Chatrooms wohl ihre Opfer suchen. Der New Scientist druckt auch einen Beispieldialog ab. Wer will, kann ja mal versuchen, herauszufinden, wer von den beiden der Computer ist.

Wie Leserbriefschreiber im Standard korrekt aufzeigen, wird es wohl (außer den Pädophilen) nur wenige geben, die diese Idee nicht gut finden. Das gleiche Programm könnte aber auch leicht modifiziert auf die Suche nach anderen "abweichenden" Meinungen gehen, z.B. zuerst könnte es Rassisten jagen, dann Globalisierungsgegner und irgendwann dann einfach nur Gewerkschaftler. Das ist eine neue Technologie, die kaum wieder in die Flasche zurück zu bekommen ist. Öffentliche Chatrooms sind nun auch nicht mehr ohne Kontrollen.

Spätestens ab 2016 werden Bots immer aktiver eingesetzt, z.B. bei der Brexit Abstimmung und allen Wahlen ab Trump indem über Bots auf Social Networks Pro- und Contra-Stimmung gemacht wird, aber auch ganz simpel für sog. Klickbetrug: Werbetreibende zahlen pro Click auf die Werbung oder pro Besucher auf ihrer Website nach einem Klick auf die Werbung. Dies lässt sich leicht mittels Bots implementieren.

 

 

Nach oben

 

Turing Tests im Einsatz - die Captcha-Technologie

Für mich ganz überraschend hat sich allerdings in den letzten Jahren eine wirkliche kommerzielle Anwendung für einen Turing Test ergeben und der sieht ganz anders aus. Es geht beim Turing Test darum, dass entschieden werden muss, ob der Dialogpartner ein Mensch ist oder ein Computer. Hintergrund ist u.a. die Spamwelle. Die Spammer erzeugen sich automatisch kostenlose Mail-Accounts, um diese für ihre unerwünschten Aktivitäten zu nutzen, bis der Anbieter ihnen auf die Schliche kommt und den Account wieder sperrt. Die Anbieter, hotmail, yahoo und andere, setzen daher jetzt Turing Tests ein, d.h. sie stellen den Dialogpartnern Aufgaben, die nur ein Mensch lösen kann (glauben sie zumindest).

Und eine Aktualisierung vom Juni 2007 in der NY Times berichtet, dass der Wettlauf zschen den AI-Forschern, die trotz der Scherigkeiten besser und besser darin werden, die Texte trotz Verzerrungen und Hintergrundrauschen zu entziffern, mittlerweile dazu geführt hat, dass selbst Menschen ohne Behinderungen (e z.B. Farbenblindheit) oft Scherigkeiten haben, diese Aufgaben zu lösen. Es entckelt sich ein Wettlauf und ein Katz-und-Maus-Spiel zwischen den Captcha-Entwicklern und den Captcha-Knackern.

Okt. 2007:
Und dann lernen wir auch schnell, wie Captchas recht einfach ausgehebelt werden können. Z.B. durch sog. Crowdsourcing, wo als Belohnung für die menschlichen Captcha-Knacker dann z.B. nackte Haut gezeigt wird.

 

 

Nach oben

 

Verwandte Themen

Auf einer anderen Seite die Themen Roboter, Roboter-Ethik, Uncanny Valley, selbstfahrende Autos und Short history of computer, AI and robots (engl.)

 

Philipp Schaumann, http://philipps-welt.info/


Home

Copyright-Hinweis:
Das Copyright des Materials auf diesen Webseiten liegt, falls kein anderer Autor genannt wird, bei Philipp Schaumann. Creative Commons License
Diese Texte sind lizensiert unter der Create Commons Attribution-Noncommercial-Share Alike 2.0 Austria Lizenz. Natürlich gelten auch die Regeln des Fair Use und über Ausnahmen bzgl. der Lizenz kann jederzeit mit den Autoren gesprochen werden.